草庐IT

flink 去重

全部标签

SpringBoot集成flink

Flink是一个批处理和流处理结合的统一计算框架,其核心是一个提供了数据分发以及并行化计算的流数据处理引擎。最大亮点是流处理,最适合的应用场景是低时延的数据处理。场景:高并发pipeline处理数据,时延毫秒级,且兼具可靠性。环境搭建:①、安装flinkhttps://nightlies.apache.org/flink/flink-docs-master/zh/docs/try-flink/local_installation/②、安装NetcatNetcat(又称为NC)是一个计算机网络工具,它可以在两台计算机之间建立TCP/IP或UDP连接。用于测试网络中的端口,发送文件等操作。进行网络

Flink 物理执行图

文章目录物理执行图一、Task二、ResultPartition三、ResultSubpartition四、InputGate五、InputChannel物理执行图JobManager根据ExecutionGraph对作业进行调度,并在各个TaskManager上部署任务。这些任务在TaskManager上的实际执行过程就形成了物理执行图。物理执行图并不是一个具体的数据结构,而是描述了流处理任务在集群中的实际执行情况。它包含的主要抽象概念有:Task、ResultPartition、ResultSubpartition、InputGate、InputChannel。一、TaskExecutio

flink重温笔记(十三): flink 高级特性和新特性(2)——ProcessFunction API 和 双流 join

Flink学习笔记前言:今天是学习flink的第13天啦!学习了flink高级特性和新特性之ProcessFunctionAPI和双流join,主要是解决大数据领域数据从数据增量聚合的问题,以及快速变化中的流数据拉宽问题,即变化中多个数据源合并在一起的问题,结合自己实验猜想和代码实践,总结了很多自己的理解和想法,希望和大家多多交流!Tips:"分享是快乐的源泉💧,在我的博客里,不仅有知识的海洋🌊,还有满满的正能量加持💪,快来和我一起分享这份快乐吧😊!喜欢我的博客的话,记得点个红心❤️和小关小注哦!您的支持是我创作的动力!"文章目录Flink学习笔记四、Flink高级特性和新特性2.Proces

flink-cdc-学习笔记(一)

1.flinkcdc简介Flink1.11引入了CDC.FlinkCDC是一款基于Flink打造一系列数据库的连接器。Flink是流处理的引擎,其主要消费的数据源是类似于一些点击的日志流、曝光流等数据,但在业务场景中,点击流的日志数据只是一部分,具有更大价值的数据隐藏在用户的业务数据库中。FlinkCDC弥补了Flink读取这些数据的缺陷,能够通过流式的方式读取数据库中的增量变更的日志。1.1应用数据场景CDC1.日志文件数据(appendOn)2.数据库数据(CRUD)1.2同类型产品的对比基于查询的CDC基于日志的CDC开源产品sqoop,kafkajdbc,dataxcanal,flin

Flink 实战:如何计算实时热门合约

本文将通过使用Flink框架实现实时热门合约需求。实际业务过程中,如何判断合约是否属于热门合约,可以从以下几个方面进行分析,比如:交易数量:合约被调用的次数可以作为其热门程度的指标之一。交易金额:合约处理的资金量也是评判热门程度的重要指标。活跃用户数量:调用合约的用户数量可以反映合约的受欢迎程度。交易频率:合约的调用频率可以反映其热门程度和使用情况。但我们本次目的主要是关于学习FlinkAPI的一些使用,以及在生产过程中,我们应该如何一步一步改进,所以本次我们主要以交易数量作为热门合约的评判标准。通过本文你将学到:如何基于EventTime处理,如何指定Watermark如何使用Flink灵活

数据同步工具对比——SeaTunnel 、DataX、Sqoop、Flume、Flink CDC

在大数据时代,数据的采集、处理和分析变得尤为重要。业界出现了多种工具来帮助开发者和企业高效地处理数据流和数据集。本文将对比五种流行的数据处理工具:SeaTunnel、DataX、Sqoop、Flume和FlinkCDC,从它们的设计理念、使用场景、优缺点等方面进行详细介绍。1、SeaTunnel简介SeaTunnel是一个分布式、高性能、支持多种数据源之间高效数据同步的开源工具。它旨在解决大数据处理过程中的数据同步问题,支持实时数据处理和批量数据处理,提供了丰富的数据源连接器,包括Kafka、HDFS、JDBC等。使用场景实时数据处理批量数据同步大数据集成优点支持多种数据源高性能、高稳定性灵活

Flink通过Java API提交作业到keberos认证的Yarn

背景作为数据中台与大数据底座交互层,系统需要要提供一个restapi,供上层应用提交到flink作业到kerberos认证yarn上,网上资料多是通过flinkrun命令,记录下怎么通过api的方式把一个任务以application的方法提交到yarn集群,最重要的是可以通过springboot就可以提交程序到yarn上面。代码实现core-site.xml、hdfs-site.xml、yarn-site.xml需要提前在对应路径下生成依赖jar资源/flink-1.16.1/lib和/user/flink-lib以及flink-demo.jar需要提前上传到hdfs对应目录下publiccl

flink学习之旅(二)

 目前flink中的资源管理主要是使用的hadoop圈里的yarn,故此需要先搭建hadoop环境并启动yarn和hdfs,由于看到的教程都是集群版,现实是只有1台机器,故此都是使用这台机器安装。1.下载对应hadoop安装包https://dlcdn.apache.org/hadoop/common/hadoop-3.3.5/hadoop-3.3.5.tar.gz2.解压到指定路径比如这里我选择的如下:3.修改hadoop相关配置cd  /root/dxy/hadoop/hadoop-3.3.5/etc/hadoopvicore-site.xml 核心配置文件fs.defaultFShdfs

Flink基本原理 + WebUI说明 + 常见问题分析

Flink概述Flink是一个用于进行大规模数据处理的开源框架,它提供了一个流式的数据处理API,支持多种编程语言和运行时环境。Flink的核心优点包括:低延迟:Flink可以在毫秒级的时间内处理数据,提供了低延迟的数据处理能力。高吞吐:吞吐量巨大。分布式计算:Flink支持分布式计算,它可以在大规模集群上运行,并提供了高可用和容错机制。流式数据处理:Flink基于流式数据处理模型,支持实时数据处理和数据增量更新。事件驱动:Flink的计算引擎是基于事件驱动的,它使用消息传递机制来处理数据。Flink的数据处理流程Flink的数据处理流程包括以下几个步骤:数据输入:Flink可以从各种数据源中

Flink UI部署jar包报错

错误描述:通过Flink的UI中的SubmitNewJob菜单添加jar包的时候提示报错。报错信息的关键字是“TheLocalStreamEnvironmentcannotbeusedwhensubmittingaprogramthroughaclient,orrunninginaTestEnvironmentcontext”,最关键的是“LocalStreamEnvironment”。我的Flink服务是单机版启动。问题原因就是以下这两行代码的区别,报错是因为我用的是“createLocalEnvironment()”ExecutionEnvironmentenv=ExecutionEnvi